扫描下载APP
其它方式登录
Thinking Machines(由OpenAI前CTO创立)发布Interaction Model,提出以共在性、共时性、并发性为基石的下一代人机交互范式,通过200ms微轮次、多模态联合训练、双模型架构等技术,实现AI持续‘在场’,突破传统轮次制交互局限,使AI能感知沉默、表情、环境等隐性情境信息。
OpenAI前CTO Mira Murati创立的Thinking Machines Lab发布原生实时交互大模型TML-Interaction-Small,强调‘presence’(持续在场),通过200毫秒微轮次机制实现语音/视觉并发处理、主动打断与同步响应,突破传统回合制交互局限,在多项实时交互基准测试中大幅领先GPT-4o和Gemini等主流模型。
Thinking Machines Lab发布首个实时交互大模型TML-Interaction-Small,实现200ms级音频与代码同步输出,突破传统“回合制”AI交互范式;采用双模型协同架构与encoder-free early fusion训练方法,将交互能力内生于模型本体,旨在重构人机协作界面。
Anthropic提出模型规范中期训练(MSM)新方法,通过在预训练后、对齐微调前插入‘读取行为规范解释文档’阶段,使AI理解规则背后的原理而非仅模仿示范答案,显著降低智能体失准率(从54%降至7%),提升泛化鲁棒性,推动AI对齐从行为模仿转向原则理解。
谷歌推出基于Gemini 3.1 Pro的两款自主研究智能体Deep Research与Deep Research Max,聚焦企业级AI分析场景,支持私有数据融合、MCP协议接入第三方金融数据源(如FactSet、标普、PitchBook)、原生图表生成及异步后台任务,通过API向开发者开放,旨在替代初级分析师基础工作,强化在AI编程与自主智能体领域的竞争力。